chaîne — [ ʃɛn ] n. f. • chaeine v. 1080; lat. catena I ♦ Suite d anneaux entrelacés (⇒ chaînon, 1. maille, maillon). A ♦ 1 ♦ Dispositif formé d anneaux entrelacés servant à orner. ⇒ chaînette, gourmette. Chaîne et médaille offertes au baptême. Chaîne d… … Encyclopédie Universelle
chaîné — chaîne [ ʃɛn ] n. f. • chaeine v. 1080; lat. catena I ♦ Suite d anneaux entrelacés (⇒ chaînon, 1. maille, maillon). A ♦ 1 ♦ Dispositif formé d anneaux entrelacés servant à orner. ⇒ chaînette, gourmette. Chaîne et médaille offertes au baptême.… … Encyclopédie Universelle
Structure des proteines — Structure des protéines La structure des protéines est la composition en acides aminés et la conformation en trois dimensions des protéines. Elle décrit la position relative des différents atomes qui composent une protéine donnée. Les protéines… … Wikipédia en Français
Chaine De Valeur — Chaîne de valeur Une chaîne de valeur est l ensemble des étapes déterminant la capacité d une organisation à obtenir un avantage concurrentiel. Ces étapes correspondent aux services de l entreprise ou de manière arbitraire aux activités complexes … Wikipédia en Français
Chaine de valeur — Chaîne de valeur Une chaîne de valeur est l ensemble des étapes déterminant la capacité d une organisation à obtenir un avantage concurrentiel. Ces étapes correspondent aux services de l entreprise ou de manière arbitraire aux activités complexes … Wikipédia en Français
Chaîne De Valeur — Une chaîne de valeur est l ensemble des étapes déterminant la capacité d une organisation à obtenir un avantage concurrentiel. Ces étapes correspondent aux services de l entreprise ou de manière arbitraire aux activités complexes imbriquées qui… … Wikipédia en Français
Chaine De Markov — Chaîne de Markov Selon les auteurs, une chaîne de Markov est de manière générale un processus de Markov à temps discret ou un processus de Markov à temps discret et à espace d états discret. En mathématiques, un processus de Markov est un… … Wikipédia en Français
Chaine de Markov — Chaîne de Markov Selon les auteurs, une chaîne de Markov est de manière générale un processus de Markov à temps discret ou un processus de Markov à temps discret et à espace d états discret. En mathématiques, un processus de Markov est un… … Wikipédia en Français
Chaine de markov — Chaîne de Markov Selon les auteurs, une chaîne de Markov est de manière générale un processus de Markov à temps discret ou un processus de Markov à temps discret et à espace d états discret. En mathématiques, un processus de Markov est un… … Wikipédia en Français
Chaîne De Markov — Selon les auteurs, une chaîne de Markov est de manière générale un processus de Markov à temps discret ou un processus de Markov à temps discret et à espace d états discret. En mathématiques, un processus de Markov est un processus stochastique… … Wikipédia en Français